GPT-OSS: So sieht das „Open-Weight“-Modell (nicht unbedingt Open Source) von OpenAI aus

Am 5. August 2025 veröffentlichte OpenAI zwei Versionen von GPT-OSS , die im OpenAI-Blog als im Vergleich zur Konkurrenz wirklich wettbewerbsfähige Leistung zu niedrigen Kosten und mit Ergebnissen beschrieben werden, die fast denen einiger der vorherigen Modelle entsprechen.
„Diese Modelle sind unter der flexiblen Apache 2.0-Lizenz verfügbar“, heißt es in dem Blogbeitrag, „und übertreffen bei Schlussfolgerungsaufgaben offene Modelle ähnlicher Größe, weisen starke Tooling-Funktionen auf und sind für den effizienten Einsatz auf Verbraucherhardware optimiert.“
Soweit das Marketing von OpenAi und von hier aus eine detailliertere Analyse dessen, was GPT-OSS wirklich ist.
Open Source oder Open Weight?Trotz der gerade zitierten Aussage, wonach die Modelle „unter der flexiblen Apache 2.0-Lizenz verfügbar …“ wären, ist GPT-OSS keineswegs, wie man glauben könnte, Open Source, sondern lediglich „Open Weight“, was etwas völlig anderes ist.
OpenAI hat die Apache 2.0-Lizenz von GPT-OSS tatsächlich nur auf die Gewichte und nicht auf alles andere angewendet. Mit anderen Worten: OpenAI hat beschlossen, die Parameter, die definieren, wie ein neuronales Netzwerk nach dem Training reagiert (genauer gesagt die Gewichte), öffentlich und wiederverwendbar zu machen , dies gilt jedoch nicht für die Softwarekomponenten, die beispielsweise für das Training verwendet werden.
Diese Wahl ist aus kommerzieller Sicht völlig legitim und verständlich, erlaubt aber keine Übertreibung der Wortwahl, indem sie suggeriert, dass Benutzer Zugriff auf alle im Modell enthaltenen Elemente haben. Daher wäre es zutreffender gewesen, zu schreiben: „ Mit den unter der flexiblen Apache 2.0-Lizenz verfügbaren Gewichtungen können diese Modelle...“ – drei Worte, die die Form des Satzes und seine inhaltliche Bedeutung radikal verändern.
Was bedeutet es, dass GPT-OSS nicht Open Source ist?GPT-OSS ist als Ganzes weder „Open Source“ noch „ frei “ im rechtlichen Sinne des Wortes, wie es von der Free Software Foundation definiert wird. Das bedeutet, dass es selbst in seinen Softwarekomponenten völlig frei ist. Was die Software betrifft, ist GPT-OSS vielmehr ein „proprietäres“ Modell in dem Sinne, dass OpenAI die Kontrolle und Geheimhaltung darüber behält, wie es erstellt und verwaltet wird.
Eine KI-Plattform besteht in der Tat aus vielen Teilen, wie zum Beispiel, in einer sehr groben und extrem (und sogar übermäßig) vereinfachten Form: Rohdaten, die dann in einem Datensatz organisiert werden, Software zum Erstellen und Verwalten des Datensatzes, auf dem das Modell arbeitet, und genau, die „ Gewichte “. Nur Letztere werden, wie erwähnt, unter der Apache 2.0-Lizenz veröffentlicht, die „das Reproduzieren, Erstellen abgeleiteter Werke , öffentliche Anzeigen, öffentliche Aufführen, Unterlizenzieren und Verteilen des Werks und solcher abgeleiteter Werke in Quell- oder Objektform“ erlaubt.
Die Tatsache, dass sich „Flexibilität“ nur auf die Wiederverwendung von Gewichten bezieht, ist entscheidend. Denn wenn nur diese wiederverwendbar und modifizierbar sind, kann jeder die Funktionsweise des Modells zwar anpassen, aber nur teilweise . Dies stellt ein ernstes Problem dar, das uns dazu veranlassen könnte, zweimal nachzudenken, bevor wir „fein abgestimmte“ GPT-OSS-Modelle erstellen und diese zum Anbieten von Produkten und Dienstleistungen verwenden.
Offenes Gewicht, Sicherheitscheck und JailbreakNeben der Erstellung (teilweise) spezialisierter Versionen von GPT-OSS würde uns die Arbeit an den Gewichten theoretisch ermöglichen, die in das Modell integrierten Sicherheitsprüfungen zu eliminieren oder zumindest ihre Effizienz zu reduzieren. Diese sollen die Generierung von Antworten verhindern, die die Entwickler – nach subjektiven Maßstäben und nicht unbedingt gesetzlich vorgeschrieben – als inakzeptabel erachtet haben.
In der Einführung zur GPT-OSS-Modellkarte und anschließend in deren weiteren Details wird besonderes Augenmerk auf die Filterung beispielsweise von Daten aus den Bereichen Chemie, Biologie, Radiologie und Nuklear gelegt. Dadurch soll verhindert werden, dass das Modell auch durch eine „böswillige“ Verfeinerung eine hohe Kapazität zur Bereitstellung gefährlicher Reaktionen in diesen Bereichen erreicht.
Daraus lassen sich offenbar zwei hypothetische und eine sichere Konsequenz ableiten.
Erstens scheint es in jedem Fall (äußerst schwierig, aber) möglich, GPT-OSS für illegale Zwecke genauer zu machen (es sei denn, es werden beispielsweise Systeme implementiert, die das Modell im Falle einer unerwünschten Überschreitung der Genauigkeit „kaputtmachen“).
Der zweite Grund, der auf der vorherigen Annahme beruht, besteht darin, dass nicht angegeben wird, welcher Schaden mit diesen weniger effizienten und leistungsfähigen illegalen Modellen angerichtet werden könnte, die immer noch auf der „dunklen Seite“ funktionieren.
Wie auch immer die Antworten auf diese beiden Fragen ausfallen, mangels experimenteller Beweise wäre jede Aussage rein spekulativ; im Gegenteil, es ist sicher, dass aus denselben Gründen nicht alle GPT-OSS-Genauigkeiten möglich wären. Daher bedarf die rechtliche Einordnung des Modells weiterer Klärung, z. B. dass die Gewichte innerhalb der engen, von OpenAI unabhängig festgelegten Grenzen geändert werden können und dass das Modell daher „teilweise gewichtsoffen“ ist bzw. dass die Apache 2.0-Lizenz nicht vollständig anwendbar ist.
(Fast) jeder macht es soZusammenfassend ist klar (und in gewisser Weise offensichtlich), dass GPT-OSS, wie seine proprietären Versionen und die (fast) aller seiner Konkurrenten, eine sehr breite Nutzung ermöglicht, in jedem Fall jedoch durch die Designentscheidungen derjenigen eingeschränkt wird, die es erstellt haben, was inakzeptabel ist.
Dabei spielt es keine Rolle, ob dies geschieht, um rechtliche Schritte zu vermeiden , die Verbreitung von Informationen einzuschränken, die für Führungskräfte unerwünscht sind ( wie im Fall von DeepSeek ), oder um zu vermeiden, von den unvermeidlichen Wellen gesellschaftlicher Empörung überschwemmt zu werden, die jedes Mal aufkommen, wenn jemand dem Tool (und nicht der Person, die es verwendet) vorwirft , auf illegale oder störende Weise verwendet worden zu sein .
Die Nutzung eines LLM im Voraus einzuschränken – zu zensieren –, weil jemand es für illegale Handlungen missbrauchen könnte, bedeutet, alle Benutzer als potenzielle Gefahren zu behandeln , die daher ungeachtet dessen überwacht werden müssen, und zwar von einer privaten Einrichtung nach ihren eigenen Regeln.
Zu Recht löste dieser Ansatz Kontroversen und Proteste aus, als Apple und die Europäische Kommission begannen, über Client-Side-Scanning zu sprechen (die präventive und automatische Suche auf allen Geräten der Benutzer nach illegalen Inhalten, bevor diese gesendet werden können).
Wenn dies der Fall ist, ist nicht klar, warum OpenAI und allen anderen KI-Unternehmen das erlaubt sein sollte, was wir von anderen zu verbieten verlangen.
Wenn andererseits berechtigte Bedenken bestehen, dass ein Modell ohne Sicherheitskontrollen zu gefährlich ist, sollten die Staaten die Verantwortung für die Festlegung des Umfangs dieser Kontrollen übernehmen, anstatt sie an private Einrichtungen zu delegieren, deren Ziele nicht unbedingt mit dem Schutz des öffentlichen Interesses (von Bürgern, die nicht unbedingt US-Bürger sind) übereinstimmen.
La Repubblica